其他
新加坡发布《生成式人工智能治理模型框架》
该框架建议从 9 个维度全面审视生成式AI的开发
问责制——为人工智能系统开发生命周期中的不同参与者建立正确的激励机制,对最终用户负责。 数据——确保数据质量并以务实的方式处理可能存在争议的训练数据,因为数据是模型开发的核心。 可信开发和部署——根据行业在开发、评估和披露方面的最佳实践,提高基线安全和卫生措施的透明度。 事件报告——实施事件管理系统,以便及时通知、补救和持续改进,因为没有任何人工智能系统是万无一失的。 测试和保证——通过第三方测试提供外部验证和增加信任,并制定通用的人工智能测试标准以确保一致性。 安全——解决通过生成式 AI 模型出现的新威胁载体。 内容来源——内容来源的透明度可为最终用户提供有用的信号。 安全与协调研发——通过人工智能安全研究所之间的全球合作加速研发,以提高模型与人类意图和价值观的一致性。 人工智能造福公众——负责任的人工智能包括利用人工智能造福公众,方式包括民主化使用、提高公共部门的采用率、提高工人技能和可持续地发展人工智能系统。
该框架同时强调了数据在生成式AI中的核心作用
数据质量的重要性:在生成式人工智能模型的开发过程中,数据是核心要素,直接影响模型输出的质量。为了确保模型能够产生高质量、可信赖的输出,输入数据的质量至关重要。框架建议通过使用可信的数据源来保证数据质量。这不仅有助于提升模型的准确性和可靠性,还能防止因为数据问题导致的偏见和错误信息。 个人数据和版权内容的使用:在生成式人工智能的训练过程中,使用个人数据和版权材料可能引发争议。框架指出,在使用这些数据时,需为企业提供明确的指引,确保其合法合规。具体而言,应采取务实的方式处理这些数据,既要保障数据使用的合法性,又要防止侵犯个人隐私和知识产权。这种方式既能促进模型的开发,也能保护数据主体的权益。 数据责任的分配:生成式人工智能的开发和部署涉及技术栈的多个层次,因此数据责任的分配可能并不立即明确。框架强调,需要激励人工智能开发链中的各方对终端用户负责,确保数据的合法、合规使用。这种责任分配不仅包括数据的收集和处理,还涉及数据的存储和共享等多个方面。
为了实现有效的生成式AI中的数据治理,框架提出了一系列具体措施
数据源的选择:使用高质量、可信赖的数据源,避免使用可能引发争议的个人数据和版权材料。 数据透明度:确保数据使用的透明度,让用户了解数据的来源和使用方式。 数据保护机制:建立健全的数据保护机制,防止数据泄露和滥用,保护用户隐私和知识产权。 数据质量评估:定期对数据质量进行评估,确保模型训练数据的准确性和可靠性。
01
前瞻研究
02
03
数据信任与治理
“数据信任与治理”由下一代互联网国家工程中心运营。放眼全球数据治理前沿理论与实践进展,探索可信数据治理的中国模式,促进数据要素有序流通,释放数字经济红利。
TDG focuses on the cutting-edge theory and practice of global data governance, explores the Chinese model of trusted data governance, promotes global data flow, and fulfills the potential of the digital economy.